Как выглядит выход h(x) модели линейной регрессии?
A) \( h(x)=\theta_0+\theta_1 x \)
B) \( h(x)=sigmoid(\theta_0+\theta_1 x) \)
C) \( h(x)=\frac{1}{2m}\sum_{i=1}^n(\theta_0+\theta_1 x_i-y_i)^2 \)
D) \( h(x)= \binom {1, \ \ x \geq 0} {-1,\ x<0} \)
ANSWER: A
Какой метод оптимизации используется для минимизации целевой функции в задаче линейной регрессии?
A) метод градиентного спуска
B) метод ближайших соседей
C) метод опорных векторов
D) метод главных комопонент
ANSWER: A
На графиках представлена зависимость значений целевой функции от числа эпох обучения. Какой график из представленных на рисунке соответствует случаю успешного обучения модели линейной регрессии?[целевая функция - число эпох]
A) ни один
B) верхний
C) нижний
D) оба
ANSWER: A
От скольких переменных зависит целевая функция в задаче одномерной линейной регрессии?
A) 2
B) 1
C) n, где n - число обучающих элементов
D) n+1, где n - число обучающих элементов
ANSWER: A
При решении задачи линейной регрессии методом градиентного спуска, мы
A) минимизируем целевую функцию
B) минимизируем функцию \( h(x)=\theta_0+\theta_1x \)
C) увеличиваем вероятность застрять в локальном минимуме
ANSWER: A
Решается задача линейной регрессии. Ищется зависимость цены дома от его площади и числа комнат. Составлена целевая функция MSE, минимум который мы собираемся искать. От скольких переменных она зависит?
A) 3
B) 2
C) 1
D) n, где n - число образцов в обучающей выборке
ANSWER: A
Сколько неизвестных параметров \( \theta \) ищется методом градиентного спуска в задаче множественной линейной регрессии с \( n \) входными признаками?
A) \( n+1 \)
B) \( n \)
C) \( n-1 \)
D) 2
ANSWER: A
